在许多临床应用中,内窥镜图像之间的特征匹配和查找对应关系是从临床序列中进行快速异常定位的许多临床应用中的关键步骤。尽管如此,由于内窥镜图像中存在较高的纹理可变性,稳健和准确的特征匹配的发展成为一项具有挑战性的任务。最近,通过卷积神经网络(CNN)提取的深度学习技术已在各种计算机视觉任务中获得了吸引力。但是,他们都遵循一个有监督的学习计划,其中需要大量注释的数据才能达到良好的性能,这通常不总是可用于医疗数据数据库。为了克服与标记的数据稀缺性有关的限制,自我监督的学习范式最近在许多应用程序中表现出了巨大的成功。本文提出了一种基于深度学习技术的内窥镜图像匹配的新型自我监督方法。与标准手工制作的本地功能描述符相比,我们的方法在精度和召回方面优于它们。此外,与选择基于精度和匹配分数的基于最先进的基于深度学习的监督方法相比,我们的自我监管的描述符提供了竞争性能。
translated by 谷歌翻译
我们提出了一种方法,通过将知识存储在外部知识图(kg)中,并使用密集的索引从该kg中检索,使自然语言理解模型更有效地有效。给定(可能是多语言的)下游任务数据,例如德语中的句子,我们从kg中检索实体,并使用其多模式表示形式来改善下游任务绩效。我们使用最近发布的VisualSem KG作为我们的外部知识存储库,涵盖了Wikipedia和WordNet实体的子集,并比较基于元组和基于图的算法的混合,以学习基于KG多模式信息的实体和关系表示。 。我们在两个下游任务上展示了学识渊博的实体表示形式的有用性,并在多语言命名实体识别任务上的性能提高了$ 0.3 \%$ - $ 0.7 \%\%$ f1,而我们的准确度最高为$ 2.5 \%\%$ $提高。在视觉意义上的歧义任务上。我们所有的代码和数据都提供:\ url {https://github.com/iacercalixto/visualsem-kg}。
translated by 谷歌翻译